1 回归的概念 线性回归的导出
回顾 前面的定义 , 回归就是要对数值变量寻找线性关系. 如果只是二维情况, 这直观地等价于找一条直线能很好拟合坐标平面上看起来很线性的一列点.
现在从理论的角度, 假设 ( X , Y ) 有联合概率分布, 且存在 二阶矩 , 则当 X = x , 可以确定 Y 的条件分布 P ( ⋅ | x ) , 从而有一个条件均值 E [ Y | x ] 是关于 x 的函数. 如图所示.
图中的虚线是 Y 条件密度, 它们按着这个分布散布在 y = E [ Y | x ] 上下.
称上面的 E [ Y | x ] 为 Y 对 x 的回归函数 .
X 是回归因子, Y 是因变量/回归量. 可以把 E [ Y | x ] 看作 Y 的一个预报, 记为 Y ^ x = E [ Y | x ] .
X , Y 的地位一般不对称, 我们会事先默认一个因果关系.
现在我们需要考虑, 把 x 换成一个 f ( x ) 进行回归, 是否结果会比 E [ Y | x ] 更好? 我们首先要定义好坏的标准.
如果 M ( X ) 满足 E [ Y − M ( X ) ] 2 = min f E [ Y − f ( X ) ] 2 , 则称 M ( X ) 为对 Y 的最小均方误差预测 .
在上述定义中, E [ Y | X ] 就是最小均方误差预测. 并且 E [ Y | X ] 与 Y 的 相关系数 达到极大值 Var ( M ) Var ( Y ) , 其中 Var ( M ) 是 M ( X ) = E [ Y | X ] 的方差.
对任意 f ( X ) , 我们有E [ Y − f ( X ) ] 2 = E [ Y − E [ Y | X ] + E [ Y | X ] − f ( X ) ] 2 = E [ Y − E [ Y | X ] ] 2 + E [ E [ Y | X ] − f ( X ) ] 2 + 2 E [ Y − E [ Y | X ] ] [ E [ Y | X ] − f ( X ) ] , 其中根据 塔式法则 , E [ Y − E [ Y | X ] ] [ E [ Y | X ] − f ( X ) ] = E E { [ Y − E [ Y | X ] ] [ E [ Y | X ] − f ( X ) ] | X } = E { [ E [ Y | X ] − f ( X ) ] E { [ Y − E [ Y | X ] ] | X } } = 0.
从而 E [ Y − f ( X ) ] 2 ≥ E [ Y − E [ Y | X ] ] 2 , 从而 M ( X ) 是 Y 的最小均方误差预测.
容易计算出 Cov ( Y , f ) = E [ Y − E Y ] [ f ( X ) − E f ( X ) ] = E E [ ( Y − E Y ) [ f ( X ) − E f ( X ) ] | X ] = E [ f ( X ) − E f ( X ) ] [ E [ Y | X ] − E Y ] = Cov ( f , M ) . 从而 Cov ( Y , M ) = Cov ( M , M ) = Var ( M ) . 根据 Cauchy-Schwarz不等式 , ρ ( Y , f ) = Cov ( Y , f ) Var ( Y ) Var ( f ) = Cov ( M , f ) Var ( Y ) Var ( f ) ≤ Var ( M ) Var ( f ) Var ( Y ) Var ( f ) = Var ( M ) Var ( Y ) Var ( M ) = ρ ( Y , M ) .
从上面的证明看出, Y ^ x = E [ Y | x ] 时, 预测误差 ε = Y − E [ Y | x ] 满足 E ε = 0 , Var ( ε ) = E ε 2 = Var ( Y ) − Var ( M ) .
(记号改写成 ε x = Y x − E [ Y | x ] ).
定义预测精度 λ = Var ( ε ) Var ( Y ) . 有 λ = 1 − Var ( M ) Var ( Y ) = 1 − ρ 2 ( Y , M ) .
现在把模型改写成 主 要 部 分 预 测 误 差 Y x = E [ Y | x ] ⏟ 主要部分 + ε x ⏟ 预测误差 .
如果 E [ Y | x ] 是关于 x 的线性函数, 即 E [ Y | x ] = β 0 + β 1 x 1 + ⋯ + β p x p , 则模型改写为
(1.1) Y x = β 0 + β 1 x 1 + ⋯ + β p x p + ε x . 1.1 正态情形
在正态情形下, 线性函数的预测是最佳的.
设 z = ( y , x 1 , ⋯ , x p ) T ∼ N ( v , V ) 服从 p + 1 维正态分布, 密度函数为 f ( z ) = ( 2 π ) − p + 1 2 ( det V ) − 1 2 exp { − 1 2 ( z − v ) T V − 1 ( z − v ) } . 记 V − 1 = [ v 11 v T v V 22 ] (v ∈ R p ), E y = θ , E x = μ → . 记 x 的边缘密度为 φ ( x ) , 则 E [ Y | x ] = ∫ − ∞ ∞ y ( 2 π ) − p + 1 2 ( det V ) − 1 2 exp { − 1 2 ( z − v ) T V − 1 ( z − v ) } φ ( x ) − 1 d y . 将 Q = ( z − v ) T V − 1 ( z − v ) 关于 y 重新配方, Q = ( y − θ ) 2 v 11 + 2 ( y − θ ) v T ( x − μ ) + ( x − μ ) T V 22 ( x − μ ) = v 11 [ y − θ + ( v 11 ) − 1 v T ( x − μ ) ] 2 + c ,
从而 Y 的条件密度是正态的, 所以 E [ Y | x ] = θ − ( v 11 ) − 1 V T ( x − μ ) 是关于 x 的线性函数.
1.2 最小均方误差线性预测
如果在 x 的线性函数类 { c 0 + c T x } 中, M ( x ) 满足 E [ Y − M ( x ) ] 2 = min c 0 , c E [ Y − c 0 + c T x ] 2 , 则称 M ( x ) 是对 Y 的最小均方误差线性预测 .
记 Cov ( Y X ) = ( σ Y 2 σ Y X σ X Y T Σ X X ) , 其中 Σ X X 可逆, σ Y 2 = Var ( Y ) , σ Y X = σ X Y T = ( Cov ( Y , X 1 ) , ⋯ , Cov ( Y , X p ) ) , Σ X X = Cov ( X , X ) . 则 (1.2) M ( x ) = E Y − σ Y X Σ X X − 1 E x + σ Y X Σ X X − 1 x .
取 c 0 + c T x . 我们有E [ Y − c 0 − c T x ] 2 = E [ ( Y − E Y ) − c ′ ( x − E x ) + ( E y − c 0 − c T E x ) ] 2 = σ Y 2 + c T Σ X X c − 2 σ Y X c + ( E Y − c 0 − c T E x ) 2 = σ Y 2 + ( Σ X X 1 2 c − Σ X X − 1 2 σ X Y T ) T ( Σ X X 1 2 c − Σ X X − 1 2 σ X Y T ) − σ Y X Σ X X − 1 σ X Y T + ( E Y − c 0 − c T E x ) 2 . 从而极小值点 c 0 , c 是方程 { Σ X X 1 2 c − Σ X X − 1 2 σ X Y T = 0 E Y − c 0 − c T E x = 0 的解. 解得 c = Σ X X − 1 σ X Y T , c 0 = E Y − σ Y X Σ X X − 1 E x .
容易看出 M ( x ) 对 Y 的预测是无偏的, 预测精度为 λ L = 1 − σ Y X Σ X X − 1 σ X Y T σ Y 2 = 1 − ρ Y , X 2 . 一般 λ L 大于 这里的 λ .
记 β 0 = E Y − σ Y X Σ X X − 1 E x , β = Σ X X − 1 σ X Y T , 得总体线性回归模型为 (1.3) Y = β 0 + β T x + ε .
称 y = β 0 + β T x 为回归方程 , β 称为回归系数 .
2 回归系数的估计 经验回归
在实际问题中, 我们无法得到总体的二阶矩, 需要用样本来估计. 设容量为 n 的简单随机样本 y = ( y 1 ⋮ y n ) , X = ( x 11 ⋯ x 1 p ⋮ ⋱ ⋮ x n 1 ⋯ x n p ) , 记 1 = ( 1 , ⋯ , 1 ) T , 得样本模型 y = ( 1 X ) ( β 0 β ) + ε .
假设这个式子就是回归分析模型. 此时设计矩阵的秩 rank ( ( 1 X ) ) = p + 1 . 简记 Z = ( 1 X ) , θ = ( β 0 β T ) T . 从而上式改写为 y = Z θ + ε .
考虑最小二乘问题 | | y − Z θ ^ | | 2 = min θ ∈ R p + 1 | | y − Z θ | | 2 .
我们有| | y − Z θ | | 2 = | | y − Z θ ^ + Z ( θ ^ − θ ) | | 2 = | | y − Z θ ^ | | 2 + | | Z ( θ ^ − θ ) | | 2 + 2 ( θ ^ − θ ) T Z T ( y − Z θ ^ ) .
于是 | | y − Z θ | | 2 ≥ | | y − Z θ ^ | | 2 , ∀ θ ∈ R p + 1 的充要条件是 ( θ ^ − θ ) T Z T ( y − Z θ ^ ) = 0 , ∀ θ ∈ R p + 1 . 这又等价于 Z T ( y − Z θ ^ ) = 0 , 即
Z T Z θ ^ = Z T y . 由此得到解 (2.1) θ ^ = ( Z T Z ) − 1 Z T y .
它就是 θ 的最小二乘估计 . 记 θ ^ = ( β ^ 0 β ^ T ) T , 则它称为 β 0 , β 的经验回归系数 . 相应的 (2.2) y ^ = β ^ 0 + β ^ T x 就是经验回归方程 , β ^ 0 + β ^ T x 是经验回归函数.
在 p = 1 时,
( Z T Z ) − 1 = [ ( 1 T x T ) ( 1 x ) ] − 1 = ( n ∑ i = 1 n x i ∑ i = 1 n x i ∑ i = 1 n x i 2 ) − 1 = [ n ∑ i = 1 n x i 2 − ( ∑ i = 1 n x i ) 2 ] − 1 ( ∑ i = 1 n x i 2 − ∑ i = 1 n x i − ∑ i = 1 n x i n ) , Z T y = ( ∑ i = 1 n y i , ∑ i = 1 n x i y i ) T .
有 (2.3) { β ^ 0 = ∑ i = 1 n x i 2 ∑ i = 1 n y i − ∑ i = 1 n x i ∑ i = 1 n x i y i n ∑ i = 1 n x i 2 − ( ∑ i = 1 n x i ) 2 , β ^ 1 = n ∑ i = 1 n x i y i + ∑ i = 1 n x i ∑ i = 1 n y i n ∑ i = 1 n x i 2 − ( ∑ i = 1 n x i ) 2 .
一般情形下, (2.4) ( β ^ 0 β ^ ) = ( n 1 T X X T 1 X T X ) − 1 ( 1 T y X T y ) .
3 预测区域
我们需要衡量预测的可靠性, 也即如何找到一个区域, 它包含待预测的 y ∗ 的概率不低于 1 − α ? (也即前面的 置信区间 ). 我们假设总体分布 y ∼ N n ( X β , σ 2 I ) .
设 Y ∼ N n ( μ , I ) , A 是 n 阶对称阵, B 是 n × m 阶阵, 则有
Y T A Y ∼ χ r 2 ( δ ) 等价于 A 是对称幂等阵, 其中 r = rank ( A ) , δ 2 = μ T A μ .
当 Y T A Y ∼ χ r 2 ( δ ) 时 Y T A Y ⊥ ⊥ B T Y ⟺ B T A = 0.
因为 A 幂等, 所以 I − A 也是幂等的. 因为 A + ( I − A ) = I , 且 rank A + rank ( I − A ) = n , 则由 Cochran定理 , Y T A Y ∼ χ r 2 ( δ ) .
由于 Y T A Y ∼ χ r 2 ( δ ) , 知 A 为对称幂等阵, 存在正交阵 U : U T A U = ( I r 0 0 0 ) . 记 U = ( U 1 n × r U 2 ) . 令 Y = U X , 则有 Y T A Y = X T U A U X = ∑ i = 1 r x i 2 , B T Y = B T U X . 注意到 B T A = B T U ( I r 0 0 0 ) U T = 0 , 有 B T U 1 = 0 . 故 B T Y = ( B T U 1 B T U 2 ) X = ( 0 B T U 2 ) X = B T U 2 X ( 2 ) , 其中 X ( 2 ) = ( X r + 1 , ⋯ , X n ) T .
现在对回归模型 Y = X β + ε , 记最小二乘估计为 β ^ = ( X T X ) − 1 X T y . 称残差平方和 为 S ε 2 = | | y − x β ^ | | 2 . 容易看出 S ε 2 = y T P X ⊥ y , 这里 P X ⊥ = I − X ( X T X ) − 1 X T 是正投影阵. 而 y ^ = X β ^ = P X y , 这里 P X = X ( X T X ) − 1 X T 是 span { Col ( X ) } 的正投影阵. 于是
⚠ Switch to EXCALIDRAW VIEW in the MORE OPTIONS menu of this document. ⚠ You can decompress Drawing data with the command palette: 'Decompress current Excalidraw file'. For more info check in plugin settings under 'Saving'
Excalidraw Data
Text Elements
y
O
x1
x2
x*beta
C(X)
HY
(I-H)Y
在上述记号下 β ^ ∼ N p ( β , σ 2 ( X T X ) − 1 ) , y ^ ∼ N n ( X β , σ 2 P X ) , σ − 2 S ε 2 ∼ χ n − p 2 , 且 β ^ , y ^ , S ε 2 独立. 其中 p 是 X 的列数.
根据 引理 , 注意到 ( X β ) T P X ⊥ X β = 0 , 且 rank P X = tr P X = n − tr ( X ( X T X ) − 1 X T ) = n − tr ( ( X T X ) − 1 X T X ) = n − p . 就立即得到结论.
如果在历史样本基础上已经得到回归方程 y ^ = X T β ^ , 且有新的试验点 x ∗ = ( x 1 , ⋯ , x p ) T . 现在需要求 x ∗ 上的观察值 y ∗ .
因为 y ∗ ∼ N 1 ( x ∗ T β , σ 2 ) . 令 y ^ ∗ = x ∗ T β ^ = x ∗ T ( X T X ) − 1 X T y , 得 y ∗ − y ^ ∗ ∼ N 1 ( 0 , σ ∗ 2 ) . 因为 y ∗ ⊥ ⊥ y , 因而也和 y ^ ∗ 独立. 故 σ ∗ 2 = σ 2 + σ 2 x ∗ T ( X T X ) − 1 x ∗ = σ 2 ρ 2 , 这里 ρ 2 = 1 + x ∗ T ( X T X ) − 1 x ∗ . 根据 定理 , σ − 2 S ε 2 ∼ χ n − p 2 , 且 S ε 2 ⊥ ⊥ y ∗ − y ^ ∗ . 故 T = y ∗ − y ^ ∗ S ε ρ n − p ∼ t n − p .
记 t n − p ( α ) 是 t n − p 上的 α 分位点 . 对于置信系数 1 − α , P ( | T | ≤ t n − p ( α 2 ) ) = 1 − α , 从而得到区间 y ^ ∗ ± t n − p ( α 2 ) S ε ρ ( n − p ) − 1 2 .
我们可以把 y 1 , y 2 看作 x ∗ = ( x 1 ∗ , ⋯ , x p ∗ ) 的函数, 则 y = y 1 , y = y 2 是 R p + 1 中的两个曲面, 它们夹的区域称为预测带 .
如果有 m 个试验点 x ∗ = ( x α l ) 上的观察值 y ∗ = ( y 1 ∗ , ⋯ , y m ∗ ) T 的预测区域, 则可以仿照上面给出. 此时 y ^ ∗ = X ∗ β ^ = X ∗ ( X T X ) − 1 X T y . 由 y ∗ ⊥ ⊥ y ⇒ y ∗ ⊥ ⊥ y ^ ∗ , 从而E ( y ∗ − y ^ ∗ ) = 0 , Cov ( y ∗ − y ^ ∗ ) = σ 2 I m + σ 2 X ∗ ( X T X ) − 1 X ∗ T . 记 Σ = I m + X ∗ ( X T X ) − 1 X ∗ T , 它当然是正定矩阵.
因为 σ − 1 Σ − 1 2 ( y ∗ − y ^ ∗ ) ∼ N m ( 0 , I m ) , 有 σ − 2 ( y ∗ − y ^ ∗ ) T Σ − 1 ( y ∗ − y ^ ∗ ) ∼ χ m 2 . 因为 y ∗ , y ^ ∗ ⊥ ⊥ S ε 2 , 我们有 F = ( y ∗ − y ^ ∗ ) T Σ − 1 ( y ∗ − y ^ ∗ ) S ε 2 ⋅ n − p m ∼ F m , n − p . 此时 P ( ( y ∗ − y ^ ∗ ) T Σ − 1 ( y ∗ − y ^ ∗ ) ≤ m n − p S ε 2 F m , n − p ( α ) ) = 1 − α . 由于 c ( y ) = { y | ( y − y ^ ∗ ) T Σ − 1 ( y ∗ − y ^ ∗ ) ≤ m n − p S ε 2 F m , n − p ( α ) } 是 R m 中的椭球, 得 c ( y ) 是 y ∗ 的 1 − α 置信系数的预测区域.
3.1 预测区域的精度
预测区域"包含"y ∗ "这件事并没有什么意义, 还需要让预测区域越小越好. 当 m = 1 , 取 Δ = y 2 − y 1 (区间长度), 则 Δ 2 = ( y 2 − y 1 ) 2 = ( t n − p ( α 2 ) ) 2 S ε 2 ( 1 + x ∗ T ( X T X ) − 1 x ∗ ) ( n − p ) − 1 . 不难算出均值 E Δ 2 = ( t n − p ( α 2 ) ) 2 σ 2 ( 1 + x ∗ T ( X T X ) − 1 x ∗ ) > ( t n − p ( α 2 ) ) 2 σ 2 .
称 X T X 为信息矩阵 , 它如果特征值很小, 则预测精度可能很低.
而对于多个点的情形, 注意到 E [ m n − p S ε 2 F m , n − p ( α ) ] = m σ 2 F m , n − p ( α ) , 且 Σ − 1 特征值小于 1 . 可以计算出它的精度低于 m = 1 的情形.
4 显著性检验
我们现在可以从样本来进行线性回归. 但是所得回归函数是否是整个原模型的好的拟合? 我们可以进行假设检验.
4.1 检验系数是否为 0 向量
为了检验模型 y = 1 β 0 + X β + ε 的合理性, 可以提出假设 H 0 : β = 0. 这里如果接受 H 0 则显然线性模型很不可信. 虽然拒绝 H 0 也不一定说明线性性, 但至少我们倾向于接受模型.
为了检验 H 0 , 记 S ε 2 = min β 0 , β | | y − 1 β 0 − X β | | 2 , S 0 2 = min β 0 | | y − 1 β 0 | | 2 . 已知 S ε 2 = | | P ( 1 X ) ⊥ y | | 2 = y T P ( 1 X ) ⊥ y , 容易算出 S 0 2 = | | P 1 ⊥ y | | 2 = y T P 1 ⊥ y .
H 0 成立时, E 0 ( S 0 2 ) = E 0 ( tr ( P 1 ⊥ y y T ) ) = tr ( P 1 ⊥ E 0 ( y y T ) ) = tr ( P 1 ⊥ [ Cov y + E 0 y ( E 0 y ) T ] ) = ( n − 1 ) σ 2 .
H 0 不成立时, 如果假设原模型为真, 则 E 1 ( S 0 2 ) = ( n − 1 ) σ 2 + | | P 1 ⊥ X β | | 2 > E 0 ( S 0 2 ) .
因此考虑 S 0 2 较大时拒绝 H 0 . 但是 S 0 2 ∼ σ 2 χ n − 1 2 , 含有未知参数, 不能作为检验量. 为此引入 S H 2 = S 0 2 − S ε 2 , 则 S H 2 = y T ( P ( 1 X ) − P 1 ) y ≥ 0. 因为 S H 2 + S ε 2 = S 0 2 , 由 Cochran定理 有 σ − 2 S H 2 ∼ χ p 2 ( δ ) , σ − 2 S ε 2 ∼ χ n − p − 1 2 , 且两者独立. 故 F = S H 2 S ε 2 ⋅ n − p − 1 p ∼ F p , n − p − 1 , δ .
当 H 0 成立时 δ 2 = σ − 2 β 0 1 T ( P ( 1 X ) − P 1 ) 1 β 0 = 0 , 从而 F ∼ F p , n − p − 1 . 从而得到拒绝域 { F ≥ F p , n − p − 1 ( α ) } .
4.2 检验分量是否为 0
我们还需要检验 H 0 i : β i = 0 . 这用来检验各个因子是否显著.
为了讨论方便, 假设 β 0 = 0 , 此时回归函数变为 y = X β ^ , 其中 β ^ = ( X T X ) − 1 X T y , β ^ i = e i T ( X T X ) − 1 X T y , 而 e i = ( 0 , ⋯ , 0 , 1 ⏟ i , 0 , ⋯ , 0 ) T . 记 c = ( X T X ) − 1 = ( c i j ) , 则 β ^ i ∼ N ( β i , σ 2 c i i ) . 由于残差平方和 S ε 2 = y T P X ⊥ y ⊥ ⊥ β ^ i , 令 F = β ^ i 2 c i i S ε 2 ( n − p ) . 当 H 0 i 成立, F ∼ F 1 , n − p . 因此拒绝域为 { F ≥ F 1 , n − p ( α ) } .
如果接受 H 0 i , 剔除 x i , 记剔除第 i 列的 X 为 X ∗ , 模型变为 y = X ∗ β ∗ + ε , 然后重新估计 y ^ = X ∗ β ^ ∗ . 记 β ^ ∗ = ( β ^ ∗ 1 , ⋯ , β ^ ∗ i − 1 , β ^ ∗ i + 1 , ⋯ , β ^ ∗ p ) T (去掉了 i ), 则
剖分 I p = ( D 1 i − 1 e i D 2 p − i ) , 记 D = ( D 1 D 2 ) . 注意到 X ∗ = X D , D D T + e i e i T = I p , 则β ^ ∗ = ( X ∗ T X ∗ ) − 1 X ∗ T y = ( D T X T X D ) − 1 D T X T X β ^ = ( D T X T X D ) − 1 D T X T X ( D D T + e i e i T ) β ^ = D T β ^ + ( D T X T X D ) − 1 D T X T X e i β ^ i .
记 c i = ( X T X ) − 1 e i . 由于0 = D T e i = D T X T X c i = D T X T X ( D D T + e i e i T ) c i = D T X T X D D T c i + D T X T X e i c i i , 可得 D T X T X e i = − D T X T X D D T c i c i i , 于是有 β ^ ∗ = D T β ^ − D T c i β ^ i c i i .
5 回归因子挑选
上一小节介绍了用显著性检验来判断是否要加入因子. 在此基础上我们有挑选因子的逐步回归算法.
对线性回归模型 y = X β + ε , 如果人为丢掉一部分回归因子 (不妨设后面 p − r 个), 预测效果会怎么变?
进行剖分 X = ( X 1 r X 2 r ) , β = ( β ( 1 ) β ( 2 ) ) r , x = ( x ( 1 ) x ( 2 ) ) r . 原模型的预测为 y ^ = x T β ^ , β ^ = ( X T X ) − 1 X T y .
另一方面改写原模型为 y = X 1 β ( 1 ) + X 2 β ( 2 ) + ε ≡ X 1 β ( 1 ) + ε ∗ , 这里实际上 E ε ∗ = X 2 β 2 . 此时预测为 y ^ ∗ = x ( 1 ) T β ^ ( 1 ) , β ^ 1 = ( X 1 T X 1 ) − 1 X 1 T y . 设两种情形误差为 ε ^ = Y − y ^ , ε ^ ∗ = Y − y ^ ∗ . 计算均方误差E ( ε ^ 2 ) = Var ( ε ^ ) = σ 2 ( 1 + x T ( X T X ) − 1 x ) , E ( ε ^ ∗ 2 ) = Var ( ε ^ ∗ ) + ( E ε ^ ∗ ) 2 = σ 2 ( 1 + x ( 1 ) T ( X 1 T X 1 ) − 1 x ( 1 ) ) + ( E ( ε ^ ∗ ) ) 2 .
注意到E ( ε ^ ∗ ) = x T β − x ( 1 ) T ( X 1 T X 1 ) − 1 X 1 T X β = x ( 1 ) T β ( 1 ) + x ( 2 ) T β ( 2 ) − x ( 1 ) T ( X 1 T X 1 ) − 1 X 1 T ( X 1 β ( 1 ) + X 2 β ( 2 ) ) = x ( 2 ) T β ( 2 ) − x ( 1 ) T ( X 1 T X 1 ) − 1 X 1 T X 2 β ( 2 ) , 得 ( E ε ^ ∗ ) 2 = ( x ( 2 ) − X 2 T X 1 ( X 1 T X 1 ) − 1 x ( 1 ) ) T β ( 2 ) β ( 2 ) T ( x ( 2 ) − X 2 T X 1 ( X 1 T X 1 ) − 1 x ( 1 ) ) .
记 E ε ^ ∗ = b 为预测偏差 . 由 X T X = ( X 1 T X 1 X 1 T X 2 X 2 T X 1 X 2 T X 2 ) , ( X T X ) − 1 = c = ( c 11 c 12 c 21 c 22 ) . 则Var ( ε ^ ) − Var ( ε ^ ∗ ) = σ 2 ( x T c x − x ( 1 ) T ( X 1 T X 1 ) − 1 x ( 1 ) ) = σ 2 x T ( c − ( ( X 1 T X 1 ) − 1 0 0 0 ) ) x = σ 2 x T ( ( X 1 T X 1 ) − 1 X 1 T X 2 c 22 X 2 T X 1 ( X 1 T X 1 ) − 1 − ( X 1 T X 1 ) − 1 X 1 T X 2 c 22 − c 22 X 2 T X 1 ( X 1 T X 1 ) − 1 c 22 ) x = σ 2 x T ( − ( X 1 T X 1 ) − 1 X 1 T X 2 I ) c 22 ( − X 2 T X 1 ( X 1 T X 1 ) − 1 I ) x = σ 2 ( x ( 2 ) − X 2 T X 1 ( X 1 T X 1 ) − 1 x ( 1 ) ) T c 22 ( x ( 2 ) − X 2 T X 1 ( X 1 T X 1 ) − 1 x ( 1 ) ) , 故有 E ( ε ^ 2 ) − E ( ε ^ ∗ 2 ) (5.1) = ( x ( 2 ) − ( X 1 T X 1 ) − 1 X 1 T X 2 x ( 1 ) ) T ( σ 2 c 22 − β ( 2 ) β ( 2 ) T ) ( x ( 2 ) − ( X 1 T X 1 ) − 1 X 1 T X 2 x ( 1 ) ) .
由于 σ 2 c 22 正定, β ( 2 ) β ( 2 ) T 唯一非零特征值是 | | β ( 2 ) | | 2 = β ( 2 ) T β ( 2 ) , 故 | | β ( 2 ) | | 较小时 σ 2 c 22 − β ( 2 ) β ( 2 ) T 可以正定. 此时 y ^ 不如 y ^ ∗ , 因为 E ( ε ^ 2 ) > E ( ε ^ ∗ 2 ) .